რატომ არის რთული Deepfake-თან დაკავშირებით წესების შემოღება

0 წაკითხვა 0 კომენტარი 0 გაზიარება

გინახავთ, როგორ ეძახის ბარაკ ობამა დონალდ ტრამპს "სრულ იდიოტს" ან როგორ "ტრაბახობს" მარკ ცუკერბერგი იმით, რომ მილიარდი ადამიანის მონაცემებს ფლობს? ან იქნებ ჯონ სნოუს მონოლოგისთვის მოგიკრავთ თვალი, რომელშიც ის GOT-ის საშინელი დასასრულისთვის "ბოდიშს იხდის". თუ პასუხია "კი", ესე იგი, დიფფეიქთან შეხება უკვე გქონიათ. დიფფეიქი 21-ე საუკუნის პასუხია ფოტოშოპზე. დიფფეიქები ხელოვნური ინტელექტის ცოდნას იმისთვის იყენებენ, რომ გამოგონილი მოვლენების ამსახველი კონტენტი შექმნან. გინდათ, რომ პოლიტიკოსს სულ სხვა რამ ათქმევინოთ, ან თქვენთვის საყვარელი ფილმის პერსონაჟის ნაცვლად საკუთარი თავი ჩასვათ? დიფფეიქი ამის საშუალებას იძლევა.

რა მიზანს ემსახურება Deepfake?

შეიძლება პირველი პასუხი, რაც მოგაფიქრდებათ, პროპაგანდა იყოს, მაგრამ Deepfake-ების დიდი ნაწილია პორნოგრაფიულია. 2019 წლის სექტემბერში ინტერნეტში 15 000 Deepfake ვიდეო იყო, მათგან 96% — პორნოგრაფიული შინაარსის — ცნობილი მსახიობების სახეები პორნოვარსკვლავების სახეების ნაცვლად იყო ჩასმული. ახალი ტექნოლოგიები არაპროფესიონალებსაც აძლევს საშუალებას, რომ მრავალი ფოტოს გამოყენებით დიფფეიქები შექმნან. როგორც ბოსტონის უნივერსიტეტის პროფესორი, დენიელ ციტრონი ამბობს: დიფფეიქების ტექნოლოგია ქალებზე გალაშქრებისთვის გამოიყენება. პორნოს გარდა, დიფფეიქებს სატირისა თუ პროპაგანდისთვისაც ქმნიან.

ვინ ქმნის დიფფეიქებს?

ყველა, დაწყებული მეცნიერებითა და ტექნოლოგიური ინდუსტრიის მკვლევარებით, დამთავრებული ვიზუალური ეფექტების სტუდიებითა და ენთუზიასტებით. შეიძლება დიფფეიქების შექმნაში პოლიტიკოსებიც იყვნენ ჩართულები, ოპონენტების დისკრედიტაციისკენ მიმართული ონლაინ სტრატეგიების ფარგლებში.

რა ტექნოლოგიაა საჭირო დიფფეიქის შესაქმნელად?

სტანდარტულ კომპიუტერზე კარგი დიფფეიქის შექმნა ამჟამად ძალიან რთულია. დიფფეიქების უმრავლესობა მძლავ კომპიუტერებზე იქმნება, კიდევ უფრო დამაჯერებელ შედეგებს კი ქლაუდ ტექნოლოგია იძლევა. ქლაუდის გამოყენება ვიდეოს დამუშავების (პროცესინგის) დროს რამდენიმე დღიდან რამდენიმე საათამდე ამცირებს. გარდა მძლავრი კომპიუტერისა, დიფფეიქის შექმნას კვალიფიკაციაც სჭირდება, თუმცა ინტერნეტში უამრავი ხელსაწყოა დიფფეიქების შესაქმნელად. არსებობენ კომპანიებიც, რომლებიც თქვენ ნაცვლად გააკეთებენ დიფფეიქს, არსებობს მობილური აპლიკაციაც, რომელიც მომხმარებლის სახეს ტელესერიალების ან ფილმების პერსონაჟების ნაცვლად სვამს.

როგორ ამოვიცნოთ დიფფეიქი?

ტექნოლოგიების დახვეწასთან ერთად ეს სულ უფრო და უფრო რთული ხდება. 2018 წელს ამერიკელმა მკვლევარებმა დაადგინეს, რომ დიფფეიქ ვიდეოებში ადამიანები თვალებს არ ახამხამებენ, რაც გასაკვირი არაა: ხელოვნური ინტელექტი სახეების ამოცნობას ხომ უმეტესად თვალგახელილი სურათებიდან სწავლობს. ეს აღმოჩენა თითქოს პრობლემის მარტივ გადაწყვეტას ნიშნავდა, მაგრამ შემდეგ გამოჩნდა დიფფეიქები, სადაც გმირები თვალებს ახამხამებდნენ. თამაშის წესები ასეთია: სისუსტე აღმოჩენისთანავე სწორდება.

დაბალხარისხიანი დიფფეიქების აღმოჩენა ძალიან მარტივია: ტუჩები სიტყვებს არ მიყვება, კანი სხვადასხვა ფერისაა, სახის კიდეებში გამოსახულება გადღაბნილია. მნიშვნელოვანი დეტალები, მაგალითად თმის სტრუქტურა დიფფეიქების შემქმნელებისთვის განსაკუთრებული თავსატეხია. განსაკუთრებით, თუ თმა სახეზეც ეფარება სუბიექტს. ცუდად დარენდერებული საყურეები და კბილები ასევე მნიშვნელოვანი "სამხილია".

მთავრობები, უნივერსიტეტები და ტექნოლოგიური ფირმები დიფფეიქებთან დაკავშირებულ კვლევებში დიდ თანხებს ხარჯავენ. მაიკროსოფტმა, ფეისბუქმა და ამაზონმა ერთობლივი კონკურსიც კი შექმნეს, რომელშიც მსოფლიოს სხვადასხვა წერტილში არსებული მკვლევარები დიფფეიქების ამოცნობაში ეჯიბრებოდნენ ერთმანეთს.

რა არის გამოსავალი?

ირონიულია, მაგრამ ხელოვნური ინტელექტი. ხელოვნური ინტელექტი უკვე გაწაფულია ყალბი ვიდეოების აღმოჩენაში, თუმცა მას ერთი მთავარი სისუსტე აქვს: ის საუკეთესოდ მუშაობს ცნობილი ადამიანების აღმოჩენაზე, რადგან მათ შესასწავლად საათობით მასალა არსებობს. კიდევ ერთი გამოსავალი შეიძლება "ციფრული ნაკვალევი" იყოს. ბლოკჩეინზე დაფუძნებულ სისტემას შეუძლია თითოეულ ვიდეოს, სურათსა თუ აუდიოს "წაუშლელი" ბეჭედი დაარტყას, რითაც ნებისმიერ დროს შეამოწმებ, სად ამოყო თავი ამა თუ იმ მასალამ.

რას ფიქრობენ სოციალური პლატფორმები Deepfake-ებზე?

როცა ფეისბუქმა პოლიტიკოს ნენსი პელოსის სახეშეცვლილი ვიდეო არ წაშალა, ხელოვანმა ბილ პოსტერსმა ინსტაგრამზე მარკ ცუკერბერგის დიფფეიქი გამოაქვეყნა, სადაც ის ტრაბახობს, რომ ფეისბუქი მომხმარებლებს "ფლობს". ბილ პოსტერს აინტერესებდა, რა რეაქცია ექნებოდათ ტექ-გიგანტებს, თუ დამფუძნებლის გაყალბებული ვიდეო მისსავე პლატფორმაზე განთავსდებოდა.

ინსტაგრამმა ეს ვიდეო არ წაშალა, თუმცა ოფიციალურ განცხადებაში ნათქვამი იყო, რომ თუ "ფაქტჩეკერები ამ ვიდეოს საეჭვოდ "მონიშნავდნენ", მაშინ მასზე შეზღუდვები გავრცელდებოდა. ავტორმა ვიდეოს აღწერაში ჰეშტეგი დიფფეიქი დაამატა. მიუხედავად იმისა, რომ ვიზუალური მხარე საკმაოდ დამაჯერებელია, ხმა ვიდეოს სიყალბეს გასცემს, რაც იმაზე მიუთითებს, რომ დამაჯერებელი დიფფეიქების შესაქმნელად კარგი მსახიობის პოვნა მაინც აუცილებელია — ცხადია, ეს იქამდე, სანამ ხელოვნური ინტელექტის ხმის ანალიზი ამ ტექნიკასაც არ განავითარებს.

2020 წლის იანვარში ფეისბუქმა, ტიკტოკმა და რედიტმა დეზინფორმაციის შესახებ საკუთარი წესები განაახლეს, რაც მოსალოდნელიც იყო: სოციალური მედიის გიგანტები 2020 წლის აშშ-ის არჩევნების წინ გაზრდილ წნეხს განიცდიან ფეიქ ნიუსების შეჩერებასთან დაკავშირებით.

ეს პირველი შემთხვევა იყო, როცა რამდენიმე პლატფორმამ ერთად გადაწყვიტა, დიფფეიქებისთვის ბრძოლა გამოეცხადებინა.

ფეისბუქმა განაცხადა, რომ ის წაშლის დიფფეიქებს, რომლებიც სპეციალურად არის შექმნილი ადამიანების შეცდომაში შესაყვანად.

ტიკტოკის თქმით, ის აკრძალავს დეზინფორმაციას, რომლის მიზანიც საზოგადოებრივი ზიანის მოტანაა: მათ შორის, დეზინფორმაციიის გავრცელება არჩევნების შესახებ ან მანიპულაცია. ტიკტოკის წესებში ცალკე არაა გამოყოფილი ან განმარტებული დიფფეიქი, თუმცა "საგანგებოდ დამუშავებულ" კონტენტში, სავარაუდოდ, დიფფეიქიც იგულისხმება.

რედიტის თქმით, წაიშლება ანგარიშები, რომლებიც სხვა ადამიანის სახელს იყენებენ სხვების შეცდომაში შესაყვანად. ამაში იგულისხმება დიფფეიქები ან სხვა ნებისმიერი გაყალბებული კონტენტი, რომელიც "ისეა წარმოდგენილი, რომ დაგაბნიოს ან სხვა ადამიანს ან ორგანიზაციას მიაწეროს კონკრეტული განცხადებები".

ეს ყველაფერი კარგია, მაგრამ: დღესდღეობით ცოტა შემთხვევა გვაქვს იმის, რომ გავირუსებულმა დიფფეიქმა საზოგადოება შეცდომაში შეიყვანა. დეზინფორმაცია ბევრად უფრო სწრაფად ვრცელდება სიტყვების კონტექსტიდან ამოგლეჯით, დამონტაჟებით ან არასწორი აღწერის დამატებით, რასაც დახვეწილი ტექნოლოგია არ სჭირდება.

მანიპულაციისთვის შექმნილი მედიაკონტენტის 90%-ს წარმოადგენს რეალური ვიდეო, რომელიც კონტექსტიდანაა ამოგლეჯილი იმისთვის, რომ განსხვავებულ ნარატივს მოერგოს.

ყველაზე გახმაურებული შემთხვევა, როცა სოციალური მედიის პლატფორმები ვერ შეთანხმდნენ, უნდა წაშლილიყო თუ არა დამუშავებული ვიდეო ონლაინ სივრციდან, აშშ-ის კონგრესის წარმომადგენელთა პალატის სპიკერს, ნენსი პელოსის უკავშირდება: ვიდეო სპეციალურად იყო შენელებული, რათა პელოსი მთვრალად წარმოეჩინათ.

ეს ვიდეო ფეისბუქის წესებს არ არღვევდა: ის ხელოვნური ინტელექტის გამოყენებით არ იყო წაშლილი, ამავე ვიდეოს რედიტი წაშლიდა, რადგან ის მაყურებლების შეცდომაში შეყვანას ემსახურება.

დიფფეიქებთან დაკავშირებით კომპანიებმა ხელშესახებ წარმატებას მხოლოდ ტერმინის განსაზღვრაში მიაღწიეს. იმის გადაწყვეტა, როდის უნდა წაიშალოს დიფფეიქი, ჯერაც სუბიექტურ გარემოებებზეა დამოკიდებული.

ჯერჯერობით პლატფორმები "მიზანს" იყენებენ ბარომეტრად, ანუ რა მიზნითაა შექმნილი ესა თუ ის ვიდეო, მაგრამ მიზნის განსაზღვრა თითოეული მოდერატორის შეხედულებებზეა დამოკიდებული, საერთო სტანდარტებზე შეთანხმება კი ჯერაც მიუღწეველ ამოცანად რჩება.

თუ გინდა, რომ ნამდვილი და ყალბი ამბები ერთმანეთისგან მარტივად განასხვავო და დეზინფორმაციისგან სხვებიც დაიცვა, შემოგვიერთდი ჯგუფში – ერთად ვებრძოლოთ დეზინფორმაციას.

სტატია მოამზადა On.ge-მ აღმოსავლეთ-დასავლეთის მართვის ინსტიტუტის (EWMI) ACCESS-ის პროექტის ფარგლებში. მასალის დამზადება შესაძლებელი გახდა ამერიკელი ხალხის მხარდაჭერის შედეგად ამერიკის შეერთებული შტატების საერთაშორისო განვითარების სააგენტოს (USAID) დაფინანსებით. სტატიის შინაარსზე პასუხისმგებელია On.ge. ის შესაძლოა არ გამოხატავდეს EWMI-ს, USAID-ის ან/და ამერიკის შეერთებული შტატების შეხედულებებს.


კომენტარები

კვირის ტოპ-5

  1. ილონ მასკი დემოგრაფიის პრობლემის მოსაგვარებლად ქალებს თავის სპერმას სთავაზობს
  2. ეს ხელოვანი ცხოველებს ტანსაცმლით "ქმნის" — 10 სახალისო ფოტო
  3. "უშვილო, მეკატე ქალი" — საიდან მოდის ეს ცნობილი სექსისტური სიმბოლო
  4. ნახეთ: ჯონი დეპი ჯეკ ბეღურას როლში დაბრუნებაზე მოულოდნელ კომენტარს აკეთებს
  5. როცა მჩაგვრელი რეჟიმის წინაშე შიშვლდები — აჰუ დერიაის ისტორია

გირჩევთ

ახლა კითხულობენ